其他
BodyPark x UA HOUSE,我们与安德玛合作啦
熟悉我们的朋友们都知道,BodyPark 是一家致力于「用科技改变运动体验」的科技公司。
而我们结合了「AI 数字科技 + 真人服务 + 游戏化互动」,帮大家提供更便捷、高效、有趣、易坚持的健身服务与产品。
而最近,我们的专利技术「DeepBody Engine」得到了运动业界大佬「UA 安德玛」的青睐。
首次亮相将会在 UA HOUSE 的微信小程序端跟大家见面!那这次合作的内容,有哪些惊喜之处呢?
02
UA HOUSE「AI 体适能评估」
「AI 体适能评估」是UA HOUSE 重要组成部分之一,而这项技术正是搭载了BodyPark的核心黑科技「DeepBody Engine」。
它可以实时精准地识别大家的训练动作,判断正确与否,帮助 UA HOUSE 给到所有使用者全面、专业的动作评估。
听起来有点复杂,但使用起来却非常简单。
只需要一部手机,外加五个简单的基础动作,就能从下肢耐力、上肢耐力、核心耐力、心肺耐力和柔韧性五个维度,测出你的基础代谢、身体质量指数,评估出你的体能水平,健康状况,精准度非常高,是线下健身房的评估难以达到的水平。
惊喜还没有结束, BodyPark 还特意在测评结果中,提供了专业的运动建议,通过 AI 技术拆解你的每一个动作,进行纠错和建议。
可以让大家更加清楚地了解到你当下的体能适合什么样的运动方式,以及在何处可以提升强化。提供更有针对性方案,带你远离无效健身。
03BodyPark 自研黑科技强势来袭
聊到这里就不得不说说我们这次的功臣「DeepBody Engine」技术。
它是 BodyPark 团队基于目前最前沿的计算机视觉和人工智能及机器学习技术,BodyPark 自主研发且拥有完全知识产权。
它适用于任何健身运动场景的人体姿态识别、人体动作理解。
你可能会好奇,跟其它 AI 有什么区别?
我们可以自豪地说,与其他第三方AI识别引擎相比,BodyPark 的 AI 识别系统一共可识别人体 23 个主关键点。
不仅克服了许多对细节的捕捉难点,就连脚指头的定位都能精准识别。做到准确捕捉、理解人体动作。
相信很多运动爱好者都会经历腰疼这件事,包括大多数人在运动中非常关心的点——动作不标准导致腰部受伤。
而「DeepBody Engine」攻克了这一难题,我们在业界首创了针对「腰椎骨关键点」的识别与动作理解,能够对弯腰、塌腰、侧弯幅度更加精准的识别与判断,对大家进行实时的提醒与纠正。
让运动多一分快乐,少一分风险。
不仅如此,BodyPark 技术团队真正实现了从「数据 - 算法 - 工程 - 产品 - 用户」的端到端闭环。
通过大量的专项研发与优化,我们做到了多角度动作识别、跳跃与离地检测、广角鱼眼畸变图像下的识别,甚至是多人干扰场景下的人物跟踪等能力。运动不需要束手束脚,大大降低了场地、时间限制。
这使得 BodyPark 的算法准确率在运动健身场景中达到了 96% 以上的显著领先,人眼都难以看出的错误动作,但我们可以。它更精准实时地进行运动纠错,在实际教学过程中,给到教练和学员更多加成。
「DeepBody Engine」的独特优势
96% + 的识别准确度在行业保持领先地位
兼容 2D 摄像头,不依赖昂贵专用硬件传感器再普通的手机也能轻松实现锻炼
支持 23 个人体主关键点更多数量,帮你把动作抠得更细致
支持更复杂的人体姿态动作捕捉与理解再难的动作也不怕变形、受伤
支持高速运动中的关键点模糊动态定位高速跳跃、奔跑也能实时捕捉
支持多人与单人检测,抗干扰性强即使在人群中也能识别独特的你
正是基于「DeepBody Engine」优秀的表现力,给 UA HOUSE 的「AI体适能评估」部分提供了强有力的技术支持。
即使目前我们的技术已经行业领先,但 BodyPark 产品研发团队的成员们也从未停止过脚步、从未满足过现状,我们力求不断推出更多的AI黑科技,让我们的「DeepBody Engine」更懂训练,更懂教练,也更懂 BodyPark 的每一位使用者。
经过不断地努力,能让 BodyPark 的技术被大家看到、认可并传播,让每一个使用者拥有更高效、便捷、充满趣味好不枯燥的游戏化健身体验,这对于 AI 在线上健身领域的发展和推动充满了意义。
我们希望能运用科技,陪着我们的每一位爱好者、每一位健身从业者一起努力、前进。
屏幕前的你已经跃跃欲试了吗?赶快点击小程序,获得沉浸式运动体验!
参考文献:[1] Articulated body pose estimation: https://en.wikipedia.org/wiki/Articulated_body_pose_estimation.[2] Y. Yang and D. Ramanan. Articulated human detection with flexible mixturesof parts. PAMI’13. [3] Fang, H. S., Xie, S., Tai, Y. W., & Lu, C. (2017). Rmpe: Regional multi-person pose estimation. In Proceedings of the IEEE international conference on computer vision (pp. 2334-2343).